AI资讯新闻榜单内容搜索-Scaling La

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Scaling La
Shopee OnePiece:业内首个融合上下文工程、隐式推理和多目标训练策略的生成式搜推建模框架

Shopee OnePiece:业内首个融合上下文工程、隐式推理和多目标训练策略的生成式搜推建模框架

Shopee OnePiece:业内首个融合上下文工程、隐式推理和多目标训练策略的生成式搜推建模框架

2025 年,生成式推荐(Generative Recommender,GR)的发展如火如荼,其背后主要的驱动力源自大语言模型(LLM)那诱人的 scaling law 和通用建模能力(general-purpose modeling),将这种能力迁移至搜推广工业级系统大概是这两年每一个从业者孜孜不倦的追求。

来自主题: AI资讯
5523 点击    2025-09-28 18:14
少即是多!78条数据完胜1万条? 高质量数据才是AI真壁垒|上交大/SII最新

少即是多!78条数据完胜1万条? 高质量数据才是AI真壁垒|上交大/SII最新

少即是多!78条数据完胜1万条? 高质量数据才是AI真壁垒|上交大/SII最新

对于提升AI能主动发现问题、提出假设、调用工具并执行解决方案,在真实环境里闭环工作,而不只是在对话里“想”的智能体能力(Agency)。在这篇论文之前的传统方法认为,需要遵循传统语言模型的“规模法则”(Scaling Laws)才能实现,即投入更多的数据就能获得更好的性能。

来自主题: AI技术研报
6649 点击    2025-09-25 15:21
谁说Scaling Law到头了?新研究:每一步的微小提升会带来指数级增长

谁说Scaling Law到头了?新研究:每一步的微小提升会带来指数级增长

谁说Scaling Law到头了?新研究:每一步的微小提升会带来指数级增长

很多人认为,Scaling Law 正在面临收益递减,因此继续扩大计算规模训练模型的做法正在被质疑。最近的观察给出了不一样的结论。研究发现,哪怕模型在「单步任务」上的准确率提升越来越慢,这些小小的进步叠加起来,也能让模型完成的任务长度实现「指数级增长」,而这一点可能在现实中更有经济价值。

来自主题: AI技术研报
5706 点击    2025-09-16 15:15
你的RAG系统有个数学BUG,DeepMind首次证明嵌入向量检索召回能力有限

你的RAG系统有个数学BUG,DeepMind首次证明嵌入向量检索召回能力有限

你的RAG系统有个数学BUG,DeepMind首次证明嵌入向量检索召回能力有限

最近,工业界“RAG已死”甚嚣尘上。过去几年,AI领域的主旋律是“规模定律”(Scaling Law),即更大的模型、更多的数据会带来更好的性能。即便偶然有瑕疵,也认为只是工程上的不足,并非数学上的不可能。

来自主题: AI技术研报
8124 点击    2025-09-03 11:54
他们在1993年就提出了Scaling Law

他们在1993年就提出了Scaling Law

他们在1993年就提出了Scaling Law

原来,Scaling Law在32年前就被提出了! 不是2020年的OpenAI、不是2017年的百度,而是1993年的贝尔实验室。

来自主题: AI技术研报
6183 点击    2025-09-02 16:01
GPT-5暴写「屎山代码」!14个Prompt,看穿GPT-1到GPT-5七年智商进化史

GPT-5暴写「屎山代码」!14个Prompt,看穿GPT-1到GPT-5七年智商进化史

GPT-5暴写「屎山代码」!14个Prompt,看穿GPT-1到GPT-5七年智商进化史

GPT-5发布半月,却被连连吐槽。如今,一张基准与GPT-4对比基准测试图,证明了Scaling Law没有撞墙。七年间,从GPT-1到GPT-5十四个花式Prompt对决,实力差一目了然。

来自主题: AI资讯
7486 点击    2025-08-20 11:38
蛋白质基座的GPT时代来了?!

蛋白质基座的GPT时代来了?!

蛋白质基座的GPT时代来了?!

蛋白质模型的GPT时刻来了! 清华大学智能产业研究院(AIR)周浩副教授课题组联合上海人工智能实验室发布了AMix-1: 首次以Scaling Law、Emergent Ability、In-Context Learning和Test-time Scaling的系统化方法论来构建蛋白质基座模型。

来自主题: AI技术研报
5914 点击    2025-08-10 16:00
Meta华人新秀毕树超,重磅爆料下一代LLM路线!RL+预训练直通AGI

Meta华人新秀毕树超,重磅爆料下一代LLM路线!RL+预训练直通AGI

Meta华人新秀毕树超,重磅爆料下一代LLM路线!RL+预训练直通AGI

OpenAI前研究员、Meta「AI梦之队员」毕书超在哥大指出:AGI就在眼前,突破需高质数据、好奇驱动探索与高效算法;Scaling Law依旧有效,规模决定智能,终身学习才是重点。

来自主题: AI资讯
6293 点击    2025-08-05 12:58